116 research outputs found

    Machine Learning in Systems Biology

    Get PDF
    This supplement contains extended versions of a selected subset of papers presented at the workshop MLSB 2007, Machine Learning in Systems Biology, Evry, France, from September 24 to 25, 2007

    Régression semi-supervisée à sortie noyau pour la prédiction de liens

    Get PDF
    National audienceNous abordons le problème de la prédiction de liens comme une tâche d'apprentissage d'un noyau de sortie par régression à sortie noyau semi-supervisée. En se plaçant dans le cadre de la théorie des espaces de Hilbert à noyau autoreproduisant à valeurs opérateurs pour des fonctions à valeurs vectorielles, nous établissons un nouveau théorème de représentation dédié à la régression semi-supervisée pour un critère des moindres carrés pénalisé. Nous choisissons ensuite un noyau à valeur opérateur défini à partir d'un noyau d'entrée à valeurs scalaires puis nous construisons un espace de Hilbert avec ce noyau comme noyau autoreproduisant. Nous appliquons ensuite le théorème de représentation. La minimisation des moindres carrés pénalisés dans ce cadre conduit à une solution analytique comme dans le cas de la régression ridge qui est donc ici étendue. Nous étudions la pertinence de cette nouvelle approche semi-supervisée dans le cadre de la prédiction de lien transductive. Des jeux de données artificiels étayent notre étude puis deux applications réelles sont traitées en utilisant un très faible pourcentage de données étiquetées

    Exploiting Edge Features in Graphs with Fused Network Gromov-Wasserstein Distance

    Full text link
    Pairwise comparison of graphs is key to many applications in Machine learning ranging from clustering, kernel-based classification/regression and more recently supervised graph prediction. Distances between graphs usually rely on informative representations of these structured objects such as bag of substructures or other graph embeddings. A recently popular solution consists in representing graphs as metric measure spaces, allowing to successfully leverage Optimal Transport, which provides meaningful distances allowing to compare them: the Gromov-Wasserstein distances. However, this family of distances overlooks edge attributes, which are essential for many structured objects. In this work, we introduce an extension of Gromov-Wasserstein distance for comparing graphs whose both nodes and edges have features. We propose novel algorithms for distance and barycenter computation. We empirically show the effectiveness of the novel distance in learning tasks where graphs occur in either input space or output space, such as classification and graph prediction

    Tailoring Mixup to Data using Kernel Warping functions

    Full text link
    Data augmentation is an essential building block for learning efficient deep learning models. Among all augmentation techniques proposed so far, linear interpolation of training data points, also called mixup, has found to be effective for a large panel of applications. While the majority of works have focused on selecting the right points to mix, or applying complex non-linear interpolation, we are interested in mixing similar points more frequently and strongly than less similar ones. To this end, we propose to dynamically change the underlying distribution of interpolation coefficients through warping functions, depending on the similarity between data points to combine. We define an efficient and flexible framework to do so without losing in diversity. We provide extensive experiments for classification and regression tasks, showing that our proposed method improves both performance and calibration of models. Code available in https://github.com/ENSTA-U2IS/torch-uncertaint
    • …
    corecore